In recent times, Variational Quantum Circuits (VQC) have been widely adopted to different tasks in machine learning such as Combinatorial Optimization and Supervised Learning. With the growing interest, it is pertinent to study the boundaries of the classical simulation of VQCs to effectively benchmark the algorithms. Classically simulating VQCs can also provide the quantum algorithms with a better initialization reducing the amount of quantum resources needed to train the algorithm. This manuscript proposes an algorithm that compresses the quantum state within a circuit using a tensor ring representation which allows for the implementation of VQC based algorithms on a classical simulator at a fraction of the usual storage and computational complexity. Using the tensor ring approximation of the input quantum state, we propose a method that applies the parametrized unitary operations while retaining the low-rank structure of the tensor ring corresponding to the transformed quantum state, providing an exponential improvement of storage and computational time in the number of qubits and layers. This approximation is used to implement the tensor ring VQC for the task of supervised learning on Iris and MNIST datasets to demonstrate the comparable performance as that of the implementations from classical simulator using Matrix Product States.
translated by 谷歌翻译
We explore the use of large language models (LLMs) for zero-shot semantic parsing. Semantic parsing involves mapping natural language utterances to task-specific meaning representations. Language models are generally trained on the publicly available text and code and cannot be expected to directly generalize to domain-specific parsing tasks in a zero-shot setting. In this work, we propose ZEROTOP, a zero-shot task-oriented parsing method that decomposes a semantic parsing problem into a set of abstractive and extractive question-answering (QA) problems, enabling us to leverage the ability of LLMs to zero-shot answer reading comprehension questions. For each utterance, we prompt the LLM with questions corresponding to its top-level intent and a set of slots and use the LLM generations to construct the target meaning representation. We observe that current LLMs fail to detect unanswerable questions; and as a result, cannot handle questions corresponding to missing slots. To address this problem, we fine-tune a language model on public QA datasets using synthetic negative samples. Experimental results show that our QA-based decomposition paired with the fine-tuned LLM can correctly parse ~16% of utterances in the MTOP dataset without requiring any annotated data.
translated by 谷歌翻译
深度学习目前是机器学习中最重要的分支,在语音识别,计算机视觉,图像分类和医学成像分析中的应用。植物识别是可以使用图像分类通过其叶子识别植物物种的领域之一。植物学家通过亲自检查将大量时间用于识别植物物种。本文描述了一种剖析瑞典叶子和识别植物物种的颜色图像的方法。为了实现更高的准确性,该任务是在预先训练的分类器VGG-19的帮助下使用转移学习完成的。分类的四个主要过程是图像预处理,图像增强,特征提取和识别,这些过程是作为整体模型评估的一部分进行的。 VGG-19分类器通过采用预定义的隐藏层(例如卷积层,最大池层和完全连接的层)来掌握叶子的特征,并最终使用Soft-Max层为所有植物类生成特征表示。该模型获得了与瑞典叶数据集的各个方面相关的知识,其中包含15种树类,并有助于预测未知植物的适当类别,准确性为99.70%,这比以前报告的研究工作高。
translated by 谷歌翻译
我们考虑了具有一系列二次损耗的序列,即LQR控制的问题。我们提供了一种有效的在线算法,该算法实现了$ \ tilde {o}的最佳动态(策略)遗憾(\ text {max} \ {n^{n^{1/3} \ mathcal {tv}(m_ {1:n})^{2/3},1 \})$,其中$ \ Mathcal {tv}(m_ {1:n})$是任何Oracle序列序列的总变化,由$ M_1,...,...,...,...,...,...,...,...,...,...,...,...,...,...m_n $ - 事后选择以迎合未知的非机构性。该费率提高了$ \ tilde {o}(\ sqrt {n(\ Mathcal {tv}}(m_ {1:n})+1)} $的最佳已知费率(\ sqrt {N(\ Mathcal {tv}})$ - 理论上最佳的LQR。主要技术组件包括将LQR减少到在线线性回归,并延迟由于Foster和Simchowitz(2020)而延迟反馈,以及具有最佳$ \ tilde {o}(n^{1/3})的新的适当学习算法(N^{1/3})$动态的遗憾是``小匹配''二次损失的家庭,这可能引起独立的兴趣。
translated by 谷歌翻译
我们提出了一种共同校正的随机批处理方法,用于相互作用的粒子系统。通过建立特定的熵中心限制定理,我们为所提出方法的所有粒子的整个轨迹的定律提供熵收敛的保证\ alpha n)^{\ frac {1} {3}} $(其中$ n $是粒子的数量,$ \ alpha $是时间离散参数)。反过来,这意味着当$ b $甚至中等大的时候,这些方法的输出几乎是\ emph {统计上无法区分的}。先前的作品主要考虑在瓦斯恒星距离中的收敛性,对电势或边界的必要严格假设具有指数依赖性对时间范围的依赖性。这项工作使对相互作用势的假设最少,尤其是确定即使粒子轨迹差异到无穷大,它们也以两种方法的方式这样做。鉴于基于粒子的相互作用算法的最新进展,这种保证非常有用。
translated by 谷歌翻译
经验重播方法是加固学习(RL)算法的重要组成部分,旨在减轻伪造的相关性和偏见,同时从时间依赖的数据中学习。粗略地说,这些方法使我们能够从大型缓冲液中绘制批处理的数据,从而使这些时间相关性不会妨碍下降算法的性能。在这项实验工作中,我们考虑了最近开发和理论上严格的反向经验重播(RER),该重播已被证明可以消除简化的理论环境中的这种虚假偏见。我们将RER与乐观的经验重播(OER)相结合,以获得RER ++,在神经功能近似下这是稳定的。我们通过实验表明,在各种任务上的优先体验重播(PER)等技术的性能要比计算复杂性明显较小,具有更好的性能。在RL文献中众所周知,选择最大的TD误差(如OER)或形成具有连续数据点(如RER)的迷你批次而贪婪地选择示例。但是,结合这些技术的方法效果很好。
translated by 谷歌翻译
我们描述了一种针对零售电子商务(电子商务)的需求而开发的新型决策问题。在使用物流和零售业商业合作者的同时,我们发现,从供应链中最适合的产品(称为成本为服务或CTS)的产品提供的产品成本是一个关键挑战。电子商务供应链的大规模,高性计,大大地理传播,使这一设置成为精心设计的数据驱动决策算法。在这项初步工作中,我们专注于在每次仓库中从任何仓库到多个客户提供多个产品的特定子问题。我们比较几个基线的相对性能和计算效率,包括启发式和混合整数线性规划。我们表明,基于加强学习的算法与这些政策具有竞争力,具有现实世界中有效扩大的潜力。
translated by 谷歌翻译
我们考虑非静止在线凸优化的框架,其中学习者寻求控制其动态遗憾,免于任意比较器序列。当损耗函数强烈凸或exy-yshave时,我们证明了强烈的自适应(SA)算法可以被视为在比较器序列的路径变化$ V_T $的路径变化中控制动态遗憾的原则方式。具体来说,我们展示了SA算法享受$ \ tilde o(\ sqrt {tv_t} \ vee \ log t)$和$ \ tilde o(\ sqrt {dtv_t} \ vee d \ log t)$动态遗憾强烈凸Exp-Trowave损失分别没有APRIORI $ v_t $。本发明进一步展示了原理方法的多功能性,在与高斯内核的界限线性预测器和在线回归的环境中进一步证明了原则方法。在一个相关的环境下,纸张的第二个组件解决了Zhdanov和Kalnishkan(2010)提出的一个开放问题,涉及与平方误差损失的在线内核回归。我们在一定处罚后悔的新下限,该遗憾地建立了在线内核Ridge回归(KRR)的近极低最低限度。我们的下限可以被视为vovk(2001)中派生的rkhs扩展,以便在有限维中在线线性回归。
translated by 谷歌翻译
在本文中,我们探讨了序列模型执行跨域推理的能力。为此,我们提出了一个提示模板填充方法,以使序列序列模型来执行跨域推理。我们还展示了一种案例研究,具有致辞和健康和幸福的域名,在那里我们研究了临时模板填充的序列如何浏览序列跨域的序列模型。我们跨越几个佩带的编码器 - 解码器模型的实验表明,跨域推理对当前模型有挑战性。我们还展示了深入的错误分析和途径,以便在跨域推理的未来研究
translated by 谷歌翻译
本文识别数据分布的结构属性,使得深神经网络能够分层学习。我们定义了在布尔超立方体上的功能的“楼梯”属性,该功能在沿着增加链的低阶傅里叶系数可达高阶傅里叶系数。我们证明了满足该属性的功能可以在多项式时间中使用常规神经网络上的分层随机坐标血液中学到多项式时间 - 一类网络架构和具有同质性属性的初始化。我们的分析表明,对于这种阶梯功能和神经网络,基于梯度的算法通过贪婪地组合沿网络深度的较低级别特征来了解高级功能。我们进一步回复了我们的理论结果,实验显示楼梯功能也是由具有随机梯度下降的更多标准Reset架构进行学习的。理论和实验结果都支持阶梯属性在理解基于梯度的学习的能力的情况下,与可以模仿最近所示的任何SQ或PAC算法的一般多项式网络相反,阶梯属性在理解普通网络上的能力相反。
translated by 谷歌翻译